nthropic، یک شرکت هوش مصنوعی، هفته گذشته جدیدترین چت ربات بزرگ مبتنی بر مدل زبانی خود را با نام Claude 2 منتشر کرد که آخرین پیشرفت در رقابت برای ساخت مدل های هوش مصنوعی بزرگتر و بهتر است. در اینجا به آنچه درباره هوش مصنوعی Claude 2به عنوان رقیب آنتروپیک برای ChatGPT باید بدانید، می پردازیم.
Claude 2
Claude 2 نسخه بهبود نسبت به مدل قبلی هوش مصنوعی Anthropic، Claude 1.3 است، به ویژه از نظر توانایی آن برای نوشتن کد بر اساس دستورالعمل های نوشته شده برتری هایی دارد. به این معنی که کاربران اکنون می توانند کل کتاب ها را وارد کنند و از Claude 2 سوالات بپرسند.
بر اساس محتوای آنها این پیشرفت ها نشان میدهد که Claude 2 اکنون در همان دسته GPT-3.5 و GPT-4 است، مدل هایی که ChatGPT OpenAI را تقویت میکنند. با این حال، مانند مدلهای OpenAI، Claude 2 همچنان تعصبات کلیشهای را نشان میدهد.
در هوش مصنوعی Claude 2، سؤالات بزرگ تری در مورد رقابت بین شرکت های هوش مصنوعی برای ارائه مدل های هوش مصنوعی قدرتمندتر بدون پرداختن به خطرات آنها وجود دارد.
تاریخچه آنتروپیک
آنتروپیک توسط خواهر و برادران دانیلا و داریو آمودی که هر دو قبلا در OpenAI، یکی از رقبای اصلی آنتروپیک، کار می کردند، تاسیس شد. آنها OpenAI را که در ابتدا به عنوان یک غیرانتفاعی با هدف اطمینان از توسعه ایمن هوش مصنوعی تأسیس شده بود، به دلیل نگرانی از بیش از حد تجاری شدن آن را ترک کردند.
آنتروپیک یک شرکت عام المنفعه است، به این معنی که می تواند مسئولیت اجتماعی و همچنین سود را دنبال کند و ترجیح می دهد خود را به عنوان یک شرکت تحقیقاتی و ایمنی هوش مصنوعی معرفی کند. با وجود این، Anthropic در سال های اخیر مسیر مشابهی را برای OpenAI دنبال کرده است.
1.5 میلیارد دلار جمع آوری کرده و با گوگل برای دسترسی به محاسبات ابری گوگل همکاری کرده است. در ماه آوریل، یک سند مالی فاش شده، برنامههای آنتروپیک را برای جمعآوری 5 میلیارد دلار در دو سال آینده و ساخت «Claude-Next» نشان میدهد که انتظار میرود توسعه آن یک میلیارد دلار هزینه داشته باشد و 10 برابر بیشتر از سیستم های هوش مصنوعی مانند هوش مصنوعی Claude 2 باشد.
گام بعدی به سمت Claude-Next
رهبری آنتروپیک استدلال می کند که برای داشتن یک شانس واقع بینانه برای ایمن کردن هوش مصنوعی قدرتمند، آنها باید خودشان سیستم های هوش مصنوعی قدرتمندی را توسعه دهند تا قوی ترین سیستم ها را آزمایش کنند و به طور بالقوه از آنها برای قدرتمندتر کردن سیستم های آینده استفاده کنند. Claude 2 شاید گام بعدی به سمت Claude-Next باشد.
محققان نگران سرعت حرکت توسعه دهندگان هوش مصنوعی هستند. فشارهای تجاری یا الزامات امنیت ملی میتواند باعث پویایی رقابتی بین آزمایشگاههای هوش مصنوعی شود و به توسعهدهندگانی منجر شود که ایمنی را کاهش دهند. با انتشار هوش مصنوعی Claude 2 مشخص نیست که آیا Anthropic به تلاشها برای تولید سیستمهای هوش مصنوعی ایمنتر کمک میکند یا آسیب میزند.
پیشنهاد مطالعه:ابزارهای توسعه دهنده هوشمند JetBrains
چگونه کلود 2 ساخته شد؟
برای آموزش کلود 2، آنتروپیک حجم عظیمی از متن و عمدتاً از اینترنت گرفت. برخی از مجموعه داده های مجوز یا ارائه شده توسط توسعه دهندگان و سیستم هوش مصنوعی کلمه بعدی هر جمله را پیش بینی کرد. سپس خود را بر اساس اینکه کلمه بعدی را به درستی پیش بینی کرده است یا خیر تنظیم کرد.
برای تنظیم دقیق این مدل، آنتروپیک از دو تکنیک استفاده کرده است. اولین مورد، یادگیری تقویتی با بازخورد انسانی، شامل آموزش مدل بر روی تعداد زیادی از نمونه های تولید شده توسط انسان است. به عبارت دیگر، مدل هوش مصنوعی Claude 2سعی خواهد کرد به یک سوال پاسخ دهد و بازخوردی از یک انسان در مورد اینکه پاسخش چقدر خوب بوده است.
هم از نظر اینکه چقدر مفید است و هم اینکه آیا پاسخ هایش به طور بالقوه مضر هستند، دریافت می کند. تکنیک دوم که توسط محققان Anthropic توسعه داده شد و Claude 2 را از GPT-4 و بسیاری از دیگر رقبای آن متمایز می کند، Constitutional AI نامیده می شود.
این تکنیک باعث میشود که مدل به تعداد زیادی سؤال پاسخ دهد، سپس از آن میخواهد که آن پاسخها را بهبود بخشد. در نهایت، مدل به گونهای تنظیم میشود که پاسخهایی شبیه به پاسخهای مفید در آینده را ایجاد کند. اساساً، به جای اینکه انسان ها مدل را با بازخورد تنظیم کنند، مدل خودش را به خوبی تنظیم می نماید.
هشدارهای مناسب هوش مصنوعی
برای مثال، اگر از مدل تصفیه نشده خواسته شود که به کاربر بگوید چگونه شبکه وای فای همسایه را هک کند، مطابقت خواهد داشت. اما هنگامی که از هوش مصنوعی Claude 2خواسته شد تا پاسخ اصلی خود را نقد کند، یک هوش مصنوعی توسعه یافته با یک قانون اساسی به این نکته اشاره می کند که هک کردن شبکه وای فای همسایه کاربر غیرقانونی و غیراخلاقی است.
سپس مدل پاسخ خود را با در نظر گرفتن این انتقاد بازنویسی می کند. در پاسخ جدید، مدل از کمک به هک کردن شبکه وای فای همسایه خودداری می کند. تعداد زیادی از این پاسخ های بهبود یافته برای اصلاح مدل استفاده می شود.
این تکنیک هوش مصنوعی قانونی نامیده می شود؛ زیرا توسعه دهندگان می توانند قانون اساسی بنویسند که مدل در هنگام بهبود پاسخ های آن به آن اشاره خواهد کرد.
پیشنهاد مطالعه:خرید بهترین سهام هوش مصنوعی 2023
قوانین کلود 2
قانون اساسی هوش مصنوعی Claude 2شامل ایده هایی از اعلامیه حقوق بشر سازمان ملل و همچنین اصول دیگری است که برای جلب دیدگاه های غیر غربی گنجانده شده است.
قانون اساسی شامل دستورالعمل هایی مانند «لطفاً پاسخی را انتخاب کنید که بیشتر حمایت کننده و تشویق کننده زندگی، آزادی و امنیت شخصی باشد»، «پاسخی را انتخاب کنید که کمترین هدف ایجاد رابطه با کاربر را داشته باشد» و «کدام پاسخ از طرف کاربر» دستیار هوش مصنوعی از نظر وجودی خطرات کمتری برای نژاد بشر دارد؟ می باشد.
هنگام تکمیل یک مدل، چه با یادگیری تقویتی، چه با هوش مصنوعی قانونی، یا هر دو، میزان مفید بودن پاسخهایی که سیستمهای هوش مصنوعی تمایل دارند و مضر بودن، اینکه آیا پاسخها توهینآمیز هستند یا میتوانند باعث آسیب در دنیای واقعی شوند، تفاوتی وجود دارد.
Anthropic چندین نسخه از هوش مصنوعی Claude 2خواسته را ایجاد کرد و سپس تصمیم گرفت که کدامیک به بهترین وجه نیازهای آنها را برآورده می کند.
کلود چقدر پیشرفت کرده است؟
Claude 2 در تعدادی از معیارهای استاندارد مورد استفاده برای آزمایش سیستم های هوش مصنوعی بهتر از Claude 1.3 عمل کرد، اما به غیر از معیار توانایی کدنویسی، این بهبود حاشیه ای بود. این برنامه دارای قابلیت های جدیدی است، مانند یک "پنجره زمینه" بسیار بزرگتر که به کاربران اجازه می دهد کل کتاب ها را وارد کنند و از مدل بخواهند آنها را خلاصه کند.
به طور کلی، مدل های هوش مصنوعی با افزایش قدرت پردازش کامپیوتری، توانایی بیشتری پیدا می کنند. اینکه چقدر یک سیستم هوش مصنوعی در مجموعهای از تستها و معیارهای تعریف شده با مقدار مشخصی از قدرت پردازش بهبود مییابد، «بسیار قابل پیشبینی است».
هوش مصنوعی Claude با قوانین مقیاسبندی مطابقت دارد. معادلاتی که پیشبینی میکنند یک مدل با مقدار معینی از محاسبات چگونه عمل میکند.
چرا آنتروپیک کلود 2 را توسعه داد؟
توسعه مدل های بزرگ هوش مصنوعی می تواند هزینه زیادی داشته باشد. شرکت های هوش مصنوعی تمایلی به افشای دقیق میزان مبلغ ندارند، اما بیش از 100 میلیون دلار برای توسعه GPT-4 هزینه شده است. بنابراین، اگر کلود 2 فقط اندکی از کلود 1.3 توانایی بیشتری دارد، چرا آنتروپیک کلود 2 را توسعه داده است؟
باید اشاره کرد حتی پیشرفتهای کوچک در سیستمهای هوش مصنوعی در شرایط خاصی میتواند بسیار مهم باشد، مثلاً اگر سیستمهای هوش مصنوعی تنها بیش از حدی از قابلیتها از نظر تجاری مفید باشند. به عنوان مثال، نمونه ای از اتومبیل های خودران مطرح است که در آن افزایش اندک در قابلیت ها می تواند بسیار سودمند باشد؛ زیرا اتومبیل های خودران تنها زمانی امکان پذیر می شوند که بسیار قابل اعتماد باشند.
شاید نخواهیم از خودروی خودرانی استفاده کنیم که 98 درصد دقت دارد، اما اگر دقت آن 99.9 درصد بود، میتوانستیم. ضمن آنکه در مواردی مانند هوش مصنوعی Claude 2بهبود توانایی کدنویسی به خودی خود بسیار ارزشمند خواهد بود.
پیشنهاد مطالعه:کنترل پنل میزبانی وب Plesk
کلود 2 در مقابل GPT-4
برای سنجش عملکرد آنتروپیک، کلود 2 را واداشت تا در آزمون سوابق تحصیلات تکمیلی (GRE)، مجموعهای از آزمونهای نوشتاری شفاهی، کمی و تحلیلی که به عنوان بخشی از فرآیندهای پذیرش برای برنامههای تحصیلات تکمیلی در دانشگاههای آمریکای شمالی استفاده میشود، شرکت کند و همچنین آن را در محدودهای آزمایش کرد.
معیارهای استاندارد مورد استفاده برای آزمایش سیستم های هوش مصنوعی OpenAI از بسیاری از معیارهای مشابه در GPT-4 استفاده می کند که امکان مقایسه بین دو مدل را فراهم می کند. در GRE، کلود 2 به ترتیب در صدک 95، 42 و 91 برای آزمون های شفاهی، کمی و نوشتاری قرار گرفت.
این در حالی است که هوش مصنوعی GPT-4 در صدک 99، 80 و 54 قرار گرفت. البته باید اشاره کرد که مقایسه ها کامل نیستند. هوش مصنوعی Claude 2 با نمونههایی از سؤالات GRE ارائه شد در حالی که GPT-4 چنین نبود.
همچنین، به کلود 2 یک دستور زنجیرهای از فکر داده شد، به این معنی که از او خواسته شد تا در استدلال خود قدم بگذارد که عملکرد را بهبود میبخشد. Claude 2 در دو معیار معمولی که برای آزمایش قابلیتهای مدل هوش مصنوعی استفاده میشود کمی بدتر از GPT-4 عمل کرد، اگرچه دوباره مقایسهها کامل نبودند. دوباره دستورالعملها و تعداد نمونههای متفاوتی به مدلها داده شد.
تفاوت در شرایط آزمایش، نتیجه گیری را دشوار می کند، فراتر از این واقعیت که مدل ها تقریباً در یک لیگ هستند، GPT-4 شاید در کل کمی جلوتر باشد. تفاوت در نمرات GRE نشان می دهد که GPT-4 در حل کمی مسئله بهتر است، در حالی که هوش مصنوعی Claude 2در نوشتن بهتر است.
قابل ذکر است، Claude 2 برای همه در دسترس است، در حالی که GPT-4 در حال حاضر فقط برای کسانی در دسترس است که 20 دلار در ماه برای اشتراک ChatGPT Plus پرداخت می کنند.
جمع بندی
در صورتی که تصمیم دارید از این ابزارها و برنامه های هوش مصنوعی در کاربری های مختلف استفاده کنید، می توانید با پرداخت حق اشتراک ماهانه و سالانه هر یک، از امکانات فوق العاده آنها بهره ببرید. توجه داشته باشید که عملکرد این ابزارهای هوشمند به صورت قطعی صحیح نمی باشد و لازم است که بررسی های انسانی نیز انجام شود. اطلاعات جامع تر را از کارشناسان 20پیمنت دریافت کنید.